ラッソ回帰(least absolute shrinkage and selection operator; Lasso regression)
損失関数(Loss function)
に
正則化項(Regularization term)
を入れて過学習を抑制する方法の1つ。
L1正則化
正則化(Regularization)
$ \min_{\boldsymbol{w}} \left\{ \sum_{i=1}^{n} (y_i - \boldsymbol{x}_i^T \boldsymbol{w})^2 + \lambda \sum_{j=1}^{p} |w_j| \right\}